Наименьших квадратов метод - определение. Что такое Наименьших квадратов метод
Diclib.com
Словарь ChatGPT
Введите слово или словосочетание на любом языке 👆
Язык:

Перевод и анализ слов искусственным интеллектом ChatGPT

На этой странице Вы можете получить подробный анализ слова или словосочетания, произведенный с помощью лучшей на сегодняшний день технологии искусственного интеллекта:

  • как употребляется слово
  • частота употребления
  • используется оно чаще в устной или письменной речи
  • варианты перевода слова
  • примеры употребления (несколько фраз с переводом)
  • этимология

Что (кто) такое Наименьших квадратов метод - определение

Тождество четырех квадратов; Тождество квадратов; Тождество Эйлера (кватернионы)
Найдено результатов: 585
НАИМЕНЬШИХ КВАДРАТОВ МЕТОД      
один из методов теории ошибок для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Применяется при обработке наблюдений.
Наименьших квадратов метод      

один из методов ошибок теории (См. Ошибок теория) для оценки неизвестных величин по результатам измерений, содержащим случайные ошибки. Н. к. м. применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при наблюдений обработке (См. Наблюдений обработка). Н. к. м. предложен К. Гауссом (1794-95) и А. Лежандром (1805-06). Первоначально Н. к. м. использовался для обработки результатов астрономических и геодезических наблюдений. Строгое математическое обоснование и установление границ содержательной применимости Н. к. м. даны А. А. Марковым (старшим) и А. Н. Колмогоровым. Ныне Н. к. м. представляет собой один из важнейших разделов математической статистики и широко используется для статистических выводов в различных областях науки и техники.

Сущность обоснования Н. к. м. (по Гауссу) заключается в допущении, что "убыток" от замены точного (неизвестного) значения физической величины и её приближённым значением X, вычисленным по результатам наблюдений, пропорционален квадрату ошибки: (X - μ)2. В этих условиях оптимальной оценкой естественно признать такую лишённую систематической ошибки величину X, для которой среднее значение "убытка" минимально. Именно это требование и составляет основу Н. к. м. В общем случае отыскание оптимальной в смысле Н. к. м. оценки Х - задача весьма сложная, поэтому практически эту задачу сужают и в качестве Х выбирают линейную функцию от результатов наблюдений, лишённую систематической ошибки, и такую, для которой среднее значение "убытка" минимально в классе всех линейных функций. Если случайные ошибки наблюдений подчиняются нормальному распределению (См. Нормальное распределение) и оцениваемая величина μ зависит от средних значений результатов наблюдений линейно (случай, весьма часто встречающийся в приложениях Н. к. м.), то решение этой задачи будет одновременно являться и решением общей задачи. При этом оптимальная оценка Х также подчиняется нормальному распределению со средним значением μ и, следовательно, плотность вероятности случайной величины Х

при х = Х достигает максимума в точке μ = Х (это свойство и выражает точное содержание распространённого в теории ошибок утверждения "оценка X, вычисленная согласно Н. к. м., - наиболее вероятное значение неизвестного параметра μ").

Случай одного неизвестного. Пусть для оценки значения неизвестной величины μ произведено n независимых наблюдений, давших результаты Y1, Y2,..., Yn, т. е. Y1 = μ + δ1, Y2 = μ + δ2,..., Yn = μ + δn, где δ1, δ2,..., δn - случайные ошибки (по определению, принятому в классической теории ошибок, случайные ошибки - независимые случайные величины с нулевым математическим ожиданием: Еδi = 0; если же Eδi ≠ 0, то Еδi, называются систематическими ошибками). Согласно Н. к. м., в качестве оценки величины μ принимают такое X, для которого будет наименьшей сумма квадратов (отсюда и само название метода):

где pi = k/σi2 и σi2 = Dδi = Eδi2

(коэффициент k > 0 можно выбирать произвольно). Величину pi называют весом, a σi - квадратичным отклонением измерения с номером i. В частности, если все измерения равноточны, то σ1 = σ2 =... = σn, и в этом случае можно положить p1 = p2 =... = pn = 1; если же каждое Yi, - арифметическое среднее из ni, равноточных измерений, то полагают pi = ni.

Сумма S (X) будет наименьшей, если в качестве Х выбрать взвешенное среднее:

Оценка величины μ лишена систематической ошибки, имеет вес Р и дисперсию

В частности, если все измерения равноточны, то Y - арифметическое среднее результатов измерений:

При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то распределение оценки мало отличается от нормального с математическим ожиданием μ и дисперсией k/P. В этом случае абсолютная погрешность приближённого равенства

μ≈Y̅

меньше

с вероятностью, близкой к значению интеграла

[напр., I (1,96) = 0,950; I (2,58) = 0,990; I (3,00) = 0,997].

Если веса измерений pi заданы, а множитель k до наблюдений остаётся неопределённым, то этот множитель и дисперсия оценки могут быть приближённо оценены по формулам:

и

(обе оценки лишены систематических ошибок).

В том практически важном случае, когда ошибки δi подчиняются нормальному распределению, можно найти точное значение вероятности, с которой абсолютная погрешность приближённого равенства

μ≈Y̅

окажется меньше ts (t - произвольное положительное число). Эту вероятность, как функцию от t, называют функцией распределения Стьюдента с n - 1 степенями свободы и вычисляют по формуле

где постоянная Cn-1 выбрана таким образом, чтобы выполнялось условие: In-1(∞) = 1. При больших n формулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших n привело бы к грубым ошибкам. Так, например, согласно (1), значению I = 0,99 соответствует t = 2,58; истинные значения t, определяемые при малых n как решения соответствующих уравнений ln-1(t) = 0,99, приведены в таблице:

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

| n | 2 | 3 | 4 | 5 | 10 | 20 | 30 |

|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|

| t | 63,66 | 9,92 | 5,84 | 4,60 | 3,25 | 2,86 | 2,76 |

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Пример. Для определения массы некоторого тела произведено 10 независимых равноточных взвешиваний, давших результаты Yiг):

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

| Yi | 18,41 | 18,42 | 18,43 | 18,44 | 18,45 | 18,46 |

|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|

| ni | 1 | 3 | 3 | 1 | 1 | 1 |

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

(здесь ni - число случаев, в которых наблюдался вес Yi, причём n = Σni, = 10). Так как все взвешивания равноточные, то следует положить pi = ni и в качестве оценки для неизвестного веса μ, выбрать величину

Задавая, например, I9 = 0,95, по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что t = 2,262, и поэтому в качестве предельной абсолютной погрешности приближённого равенства μ ≈ 18,431 следует принять величину

Т. о. 18,420 < μ < 18,442.

Случай нескольких неизвестных (линейные связи). Пусть n результатов измерений Y1, Y2,..., Yn связаны с m неизвестными величинами x1, x2,..., хm (m < n) независимыми линейными отношениями

где aij - известные коэффициенты, а δi - независимые случайные ошибки измерений. Требуется оценить неизвестные величины xj (эту задачу можно рассматривать как обобщение предыдущей, в которой μ = x1 и m = ai1 = 1; i = 1,2,..., n).

Так как Еδi = 0, то средние значения результатов измерений yi, = Eyi. связаны с неизвестными величинами x1, x2,..., хm линейными уравнениями (линейные связи):

Следовательно, искомые величины xj представляют собой решение системы (4), уравнения которой предполагаются совместными. Точные значения измеряемых величин yi и случайные ошибки δi обычно неизвестны, поэтому вместо систем (3) и (4) принято записывать так называемые условные уравнения

Согласно Н. к. м., качестве оценок для неизвестных xj применяют такие величины Xj, для которых сумма квадратов отклонений

будет наименьшей (как и в предыдущем случае, pi - вес измерения Yi, - величина, обратно пропорциональная дисперсии случайной ошибки δi). Условные уравнения, как правило, несовместны, т. е. при любых значениях Xj разности

не могут, вообще говоря, все обратиться в нуль, и в этом случае

также не может обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения Xj, которые минимизируют сумму S. В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м.

Сумма квадратов S представляет собой квадратичный многочлен относительно переменных Xj; этот многочлен достигает минимума при таких значениях X1, X2,..., Хm, при которых обращаются в нуль все первые частные производные:

Отсюда следует, что оценки Xj, полученные согласно Н. к. м., должны удовлетворять системе так называемых нормальных уравнений, которая в обозначениях, предложенных Гауссом, имеет вид:

где

Оценки Xj, получающиеся в результате решения системы нормальных уравнений, лишены систематических ошибок (Exj = xj); дисперсии Dxj; величин Xj равны kdjj/d, где d - определитель системы (5), а djj - минор, соответствующий диагональному элементу [раjaj] (иными словами, djj/d - вес оценки Xj). Если множитель пропорциональности k (k называется дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии Dxj служат формулы:

kS/(n - m) и Dxjs2j = Sdjj/d (n - m)

(S - минимальное значение исходной суммы квадратов). При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то абсолютная погрешность приближённого равенства xiXj меньше tsj с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений δi подчиняются нормальному распределению, то все отношения (Xj - xj)/sj распределены по закону Стьюдента с n - m степенями свободы [точная оценка абсолютной погрешности приближённого равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного]. Кроме того, минимальное значение суммы S в вероятностном смысле не зависит от X1, X2,..., Xm и поэтому приближённые значения дисперсий оценок Dxjs2j не зависят от самих оценок Xj.

Один из наиболее типичных случаев применения Н. к. м. - "выравнивание" таких результатов наблюдений Yi, для которых в уравнениях (3) aij = aj (ti), где aj (t) - известные функции некоторого параметра t (если t - время, то t1, t2,... - те моменты времени, в которые производились наблюдения). Особенно часто встречается в приложениях случай так называемой параболической интерполяции, когда aj (t) - многочлены [например, a1(t) = 1, a2(t) = t, a3(t) = t2,... и т.д.]; если t2 - t1 = t3 - t2 =... = tn - tn-1, a наблюдения равноточные, то для вычисления оценок Xj можно воспользоваться таблицами ортогональных многочленов, имеющимися во многих руководствах по современной вычислительной математике. Другой важный для приложения случай - так называемая гармоническая интерполяция, когда в качестве aj (t) выбирают тригонометрические функции [например, aj (t) = cos (j - 1) t, j = 1, 2,..., m].

Пример. Для оценки точности одного из методов химического анализа этим методом определялась концентрация CaO в десяти эталонных пробах заранее известного состава. Результаты равноточных наблюдений указаны в таблице (i - номер эксперимента, ti - истинная концентрация CaO, Ti - концентрация CaO. определённая в результате химического анализа, Yi = Ti - ti - ошибка химического анализа):

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

| i | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |

|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|

| ti | 4 | 8 | 12,5 | 16 | 20 | 25 | 31 | 36 | 40 | 40 |

|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|

| Yi | - 0,3 | - 0,2 | - 0,4 | - 0,4 | - 0,2 | - 0,5 | + 0,1 | - 0,5 | -0,6 | -0,5 |

--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Если результаты химического анализа не имеют систематических ошибок, то Eyi = 0. Если же такие ошибки имеются, то в первом приближении их можно представить в виде: Eyi = α + βti (α называется постоянной ошибкой, а βti - методической ошибкой) или, что то же самое,

где

Для отыскания оценок α и β достаточно оценить коэффициенты

Условные уравнения в данном случае имеют вид:

поэтому ai1 = 1, ai2 = ti - t (согласно предположению о равноточности наблюдений, все pi = 1). Так как

то система нормальных уравнений записывается особенно просто:

[a1a1] X1 = [Ya1]; [a2a2] X2 = [Ya2],

где

Дисперсии компонент решения этой системы суть

где k - неизвестная дисперсия на единицу веса (в данном случае k - дисперсия любой из величин Yi). Так как в этом примере компоненты решения принимают значения X1 = -0,35 и X2 = -0,00524, то

Dx1s12 = 0,00427,

Dx2s22 = 0,0000272,

s1 = 0,065, s2 = 0,00522.

Если случайные ошибки наблюдений подчиняются нормальному распределению, то отношения |Xj - xjl/sj (j = 1, 2) распределены по закону Стьюдента. В частности, если результаты наблюдений лишены систематических ошибок, то x1 = x2 = 0 и, значит, закону Стьюдента должны подчиняться отношения |X1|/s1 и |X2|/s2. С помощью таблиц распределения Стьюдента с n - m = 8 степенями свободы можно убедиться, что если действительно x1 = x2 = 0, то с вероятностью 0,999 каждое из этих отношений не должно превосходить 5,04 и с вероятностью 0,95 не должно превосходить 2,31. В данном случае |X1|/s1 = 5,38 > 5,04, поэтому гипотезу отсутствия систематических ошибок целесообразно отвергнуть; в то же время следует признать, что гипотеза об отсутствии методической ошибки (x2 = 0) не противоречит результатам наблюдений, так как |X2|/s2 = 1,004 < 2,31. Т. о., можно заключить, что для определения t по результату наблюдения Т целесообразно пользоваться приближённой формулой t = Т + 0,35.

Во многих практически важных случаях (и в частности, при оценке сложных нелинейных связей) количество неизвестных параметров бывает весьма большим и поэтому реализация Н. к. м. оказывается эффективной лишь при использовании современной вычислительной техники.

Лит.: Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; Колмогоров А. Н., К обоснованию метода наименьших квадратов, "Успехи математических наук", 1946, т. 1, в. 1; Линник Ю. В., Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений, 2 изд., М., 1962; Helmert F. R., Die Ausgieichungsrechnung nach der Methode der kleinsten Quadrate..., 2 Aufl., Lpz., 1907.

Л. Н. Большев.

Метод наименьших квадратов         
  • Пример кривой, проведённой через точки, имеющие нормально распределённое отклонение от истинного значения.
МАТЕМАТИЧЕСКИЙ МЕТОД, ОСНОВАННЫЙ НА МИНИМИЗАЦИИ СУММЫ КВАДРАТОВ ОТКЛОНЕНИЙ НЕКОТОРЫХ ФУНКЦИЙ ОТ ИСКОМЫХ ПЕРЕМЕННЫХ
OLS; МНК; Наименьшие квадраты
Метод наименьших квадратов (МНК) — математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. Он может использоваться для «решения» переопределенных систем уравнений (когда количество уравнений превышает количество неизвестных), для поиска решения в случае обычных (не переопределенных) нелинейных систем уравнений, для аппроксимации точечных значений некоторой функции. МНК является одним из базовых методов регрессионного анализа для оценки неизвест
Тождество четырёх квадратов         
Тождество Эйлера о четырёх квадратах — разложение произведения сумм четырёх квадратов в сумму четырёх квадратов.
Метод (программирование)         
В ПРОГРАММИРОВАНИИ - ФУНКЦИЯ ИЛИ ПРОЦЕДУРА, СВЯЗАННАЯ С КЛАССОМ
Метод (объектно-ориентированное программирование); Метод (языки программирования); Функция-член
Ме́тод в объектно-ориентированном программировании — это функция или процедура, принадлежащаяПод принадлежностью подразумевается, что метод явно ассоциирован с обработкой определённого класса объектов.
Метод Д’Ондта         
ОДИН ИЗ СПОСОБОВ РАСПРЕДЕЛЕНИЯ МАНДАТОВ ПРИ ПРОПОРЦИОНАЛЬНОМ ПРЕДСТАВИТЕЛЬСТВЕ
Метод Джефферсона; Метод д'Ондта
Метод Д’Ондта (также известен как метод Джефферсона) — один из способов распределения мандатов при пропорциональном представительстве, был предложен бельгийским математиком . В начале XXI века используется в ряде стран, таких, как Албания, Аргентина, Армения, Австрия, Бельгия, Бразилия, Болгария, Венгрия, Венесуэла, Восточный Тимор, Германия (до 1985), Дания, Исландия, Испания, Израиль, Колумбия, Македония, Молдавия, Нидерланды, Парагвай, Польша, Португалия, Румыния, Северная Ирландия, Сербия, Словения, Турция, Уэльс, Финляндия, Хорватия, Черногория, Чехия, Чил�
Метод Галёркина         
МЕТОД ПРИБЛИЖЁННОГО РЕШЕНИЯ КРАЕВОЙ ЗАДАЧИ
Метод Галеркина; Метод Бубнова — Галёркина; Метод Бубнова — Галеркина; Метод Бубнова-Галёркина; Метод Бубнова-Галеркина; Бубнова — Галёркина метод; Метод Галёркина — Петрова
Метод Галёркина (метод Бубнова — Галёркина) — метод приближённого решения краевой задачи для дифференциального уравнения L[u]=f(x). Здесь оператор L[\cdot] может содержать частные или полные производные искомой функции.
Доплеровская спектроскопия         
  • Экзопланеты, открытые методом Доплера, по годам в сравнении с другими методами
Доплеровская спектроскопия — метод обнаружения экзопланет, известен также как спектрометрическое измерение лучевой (радиальной) скорости звёзд. Был предложен в 1952 году американским астрономом русского происхождения Отто Струве.
Ньютона метод         
  • Иллюстрация расхождения метода Ньютона, применённого к функции <math>\scriptstyle{f(x)=x^3-2x+2}</math> с начальным приближением в точке <math>\scriptstyle{x_0=0}</math>.
  • График сходимости.
  • График последовательных приближений.
  • График производной функции <math>\scriptstyle{f(x)=x+x^2\sin(2/x)}</math> при приближении <math>\scriptstyle{x}</math> к нулю справа.
  • Иллюстрация метода Ньютона (синим изображена функция <math>\scriptstyle{f(x)}</math>, ноль которой необходимо найти, красным — касательная в точке очередного приближения <math>\scriptstyle{x_n}</math>). Здесь мы можем увидеть, что последующее приближение <math>\scriptstyle{x_{n+1}}</math> лучше предыдущего <math>\scriptstyle{x_n}</math>.
  • Иллюстрация последовательных приближений метода одной касательной, применённого к функции <math>\scriptstyle{f(x)=e^x-2}</math> с начальным приближением в точке <math>\scriptstyle{x_0=1{,}8}</math>.
  • [[Бассейны Ньютона]] для полинома пятой степени <math>\scriptstyle{p(x)=x^5-1}</math>. Разными цветами закрашены области притяжения для разных корней. Более тёмные области соответствуют большему числу итераций.
ЧИСЛЕННЫЙ МЕТОД РЕШЕНИЯ УРАВНЕНИЙ, ИСПОЛЬЗУЮЩИЙ ВЫЧИСЛЕНИЕ ПРОИЗВОДНОЙ
Метод касательной; Метод касательных; Метод Ньютона-Рафсона; Алгоритм Ньютона; Метод Ньютона — Рафсона; Метод Гаусса — Ньютона; Ньютона метод

метод приближённого нахождения корня x0 уравнения f (x) = 0, называемый также методом касательных. Н. м. состоит в том, что по исходному ("первому") приближению х = a1 находят второе (более точное), проводя касательную к графику (см. рис.) у = f (x) в точке А [а1 f (a1)] до её пересечения с осью Ox; точка пересечения х = a1 - f (a1)/f'(a1) и принимается за новое значение a2. корня. Повторяя в случае необходимости этот процесс, получают всё более и более точные приближения a2, a3,... корня x0 при условии, что производная f'(x) монотонна и сохраняет знак на сегменте, содержащем x0. Ошибка ε2 = x0 -a2 нового значения a2 связана со старой ошибкой ε1 = x0 - a1 формулой , где - значение второй производной функции f (x) в некоторой точке x, лежащей между x0 и a1. Иногда рекомендуется Н. м. применять одновременно с к.-л. другим способом, например с Линейного интерполирования методом. Н. м. допускает обобщения, которые позволяют применять его для решения уравнений F (x) = 0 в нормированных пространствах (F- оператор в этом пространстве), в частности для решения систем уравнений и функциональных уравнений. Метод разработан И. Ньютоном в 1669.

Рис. к ст. Ньютона метод.

Обобщённый метод наименьших квадратов         
Обобщённый метод наименьших квадратов (ОМНК, GLS — ) — метод оценки параметров регрессионных моделей, являющийся обобщением классического метода наименьших квадратов. Обобщённый метод наименьших квадратов сводится к минимизации «обобщённой суммы квадратов» остатков регрессии — e^TWe, где e — вектор остатков, W — симметрическая положительно определенная весовая матрица.

Википедия

Тождество четырёх квадратов

Тождество Эйлера о четырёх квадратах — разложение произведения сумм четырёх квадратов в сумму четырёх квадратов.

Что такое НАИМЕНЬШИХ КВАДРАТОВ МЕТОД - определение